Inteligência Artificial — Texto 41 D – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 3 – Consultando o Registo- a IA Falha Consistentemente com o Utilizador Comum (3/5). Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West

Nota de editor:

Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).

Hoje publicamos a terceira parte do Capítulo 3, que é publicado em 5 partes. 


Seleção e tradução de Júlio Marques Mota

9 min  de leitura

Texto 41 D – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 3 – Consultando o Registo- a IA Falha Consistentemente com o Utilizador Comum (3/5)

Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West

Publicado por em 2 de Junho de 2025 (original aqui)

 

 

Índice

Sumário Executivo

Capítulo 1: Os Falsos Deuses da IA

Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA

Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público

Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.

 

—-

Capítulo 3: Consultando o Registo- a IA Falha Consistentemente com o Utilizador Comum (3/5)

 

3. O Solucionismo da IA Oculta Questões Sistémicas que Afetam a Nossa Economia — Muitas Vezes Atuando como um Canal para Impor mecanismos de Austeridade sob Outro Nome

Se as tecnologias de IA cumprem ou não as promessas que lhes são atribuídas pode nem importar para os atores mais interessados na sua implementação: o solucionismo da IA é usado para ocultar problemas sistémicos que afetam a nossa economia, servindo como justificação para a austeridade sob outro nome. Um relatório recente da TechTonic Justice oferece uma ilustração abrangente de como a IA é utilizada para restringir as oportunidades das pessoas de baixo rendimento, expondo-as a tomadas de decisão automatizadas que lhes negam acesso a recursos e moldam as suas possibilidades de vida — desde negativas de cobertura do Medicaid, passando pela definição de quanto custará o alugar um apartamento, até decisões sobre separação familiar feitas por agências de assistência à infância [117]. O relatório afirma:

“A alegada racionalidade e objetividade do sistema permitem que os utilizadores da IA justifiquem ações prejudiciais, como cortes de benefícios ou assédio de estudantes pela aplicação da lei, ou reforcem os desequilíbrios de poder já existentes, como aquele entre empregadores e empregados. De forma reveladora, os sistemas de IA aplicados a pessoas de baixo rendimento quase nunca melhoram o acesso a benefícios ou a outras oportunidades”. [118].

São numerosos os exemplos históricos que nos revelam até aonde essa lógica nos leva: à ampla perda de direitos da população e a litígios onerosos para as agências governamentais que utilizam serviços de IA. É importante ressaltar que as ferramentas de IA não melhoraram as suas capacidades; na verdade, as falhas nos modelos de fundação tornam-nas ainda piores:

  • Há mais de uma década, Michigan gastou 47 milhões de dólares para desenvolver um sistema automatizado de deteção de fraudes, com o objetivo de identificar fraudes em benefícios no estado federado [119]. Após acusar mais de sessenta mil residentes de fraude, revelou-se que 70% das determinações do sistema estavam incorretas. Erros semelhantes relacionados com a elegibilidade para o Medicaid ocorreram em Indiana, Arkansas, Idaho e Oregon [120].
  • Em 2013, o governo holandês implementou um sistema algorítmico para identificar possíveis reivindicações fraudulentas de benefícios para cuidados infantis. O sistema considerava a nacionalidade do requerente como um dos fatores de risco, e os não cidadãos holandeses frequentemente recebiam pontuações de risco mais altas em comparação com cidadãos holandeses. Anos de dependência desse algoritmo resultaram em falsas determinações de fraude para dezenas de milhares de pessoas, muitas delas de baixo rendimento, que sofreram suspensão de benefícios ou penalidades severas [121].
  • Desde 2016, o Condado de Allegheny, na Pensilvânia, utiliza um modelo preditivo de risco para complementar as competências dos seus avaliadores humanos de triagem na identificação de possíveis casos de abuso e negligência infantil. O modelo calcula pontuações de risco usando indicadores como a frequência de chamadas e dados obtidos de órgãos públicos. Consequentemente, as crianças de famílias que têm maior probabilidade de serem vigiadas por pessoas encarregadas para o efeito ou membros da comunidade — os trabalhadores de triagem recebem chamadas sobre famílias negras ou birraciais três vezes e meia mais frequentemente em comparação com famílias brancas — ou aquelas que simplesmente dependem de programas públicos tendem a receber pontuações imprecisas [122].

Infelizmente, temos conhecimento dos exemplos acima porque indivíduos que estavam na ponta receptora de um sistema de IA conseguiram determinar que foram prejudicados e recorreram ao sistema jurídico — em combinação com pressão pública — para exigir responsabilização. Mas, com mais frequência, não se sabe como é que a IA está a ser utilizada.

A IA é frequentemente implementada de forma privada e sorrateira, como no caso dos chamados sistemas de “pontuação social”, que reúnem diferentes fontes de dados para tomar decisões sobre o acesso a recursos, deixando as pessoas sujeitas a esses sistemas sem as informações necessárias para conhecer e compreender os seus efeitos. Por exemplo, uma investigação conduzida pelo The Markup e pelo The New York Times sobre centenas de processos federais movidos contra empresas que utilizam algoritmos de triagem de inquilinos revelou que os relatórios frequentemente contêm erros gritantes, resultando na recusa de moradia a indivíduos qualificados, sem que eles sequer soubessem que um relatório incorreto sobre antecedentes era o responsável — e que tivessem a oportunidade de corrigi-lo [123].

Ou, noutros lugares, há empresas que aproveitam as assimetrias de informação proporcionadas pela sua posição dominante num mercado contra os consumidores. O Departamento de Justiça — em conjunto com oito diferentes estados — moveu um processo em 2024 contra a RealPage, uma empresa de software pertencente a um fundo privado de investimentos que coleta informações confidenciais a partir dos senhorios sobre o aluguer de casas e taxas de ocupação e, em seguida, utiliza um algoritmo para sugerir valores de aluguel inflacionados aos proprietários na sua plataforma. O processo revelou que mais de três milhões de unidades de aluguer usam essa tecnologia de determinação de rendas, que a RealPage anuncia aos proprietários como uma forma de aumentar os preços acima do valor de mercado [124]. A ausência de habitação acessível é um problema de política pública profundamente enraizado que existe independentemente da IA. Mas a utilização da IA exacerba o problema subjacente — ao facilitar que proprietários neguem injustamente o acesso à moradia a possíveis inquilinos, e ao manter os imóveis fora do mercado na esperança de extrair aluguéis mais altos — quanto torna o problema mais obscuro para o público.

 

O assalto ao poder pelo DOGE

Em nenhum outro lugar o solucionismo da IA é tão instrumentalizado quanto no ataque em larga escala feito pelo Departamento de Eficiência Governamental ao aparato administrativo, sob o disfarce de “eficiência” governamental [125]. A IA é parte central dos esforços declarados do DOGE para promover uma agenda mais ampla de austeridade ao “modernizar” a tecnologia federal para “maximizar a eficiência do governo”. Por exemplo, autoridades do DOGE afirmaram que a “IA” pode ser usada para identificar cortes orçamentais, detetar fraudes e abusos [126], automatizar tarefas governamentais [127] e determinar se o trabalho de alguém é “crítico para a missão” [128] — apesar da ausência de qualquer evidência concreta de que a IA seja capaz de realizar essas tarefas de forma eficaz, ou sequer de as realizar [129]. A linguagem do DOGE em torno da IA também perpetua a falsa ideia de que a “IA” é um conjunto coerente de tecnologias capaz de atender a objetivos sociais complexos [130].

Se o DOGE realmente está a utilizar IA, ou se a IA consegue realizar essas funções em qualquer nível de desempenho técnico aceitável, é irrelevante. A invocação da IA e as suas muitas “inovações” permitiu que o DOGE efetuasse uma apropriação generalizada de dados e poder, obtendo acesso irrestrito e “nível divino” a informações em diversas agências federais, centralizando bancos de dados de contratos governamentais e demolindo a infraestrutura técnica do governo para torná-la legível para sistemas de IA e para as empresas de tecnologia que os controlam.

O DOGE afirma que está a tornar o governo mais avançado e eficiente, mas há evidências incontestáveis de que o DOGE está a tornar o governo federal decisivamente menos eficiente e menos apto tecnologicamente. O DOGE demitiu dezenas de milhares de servidores públicos especialistas e transformou o próprio processo democrático num “resíduo” a ser eliminado. Fechou o escritório na Administração da Previdência Social (Social Security Administration) cuja função era digitalizar assinaturas e promover melhorias em cibersegurança [131], e desativou uma equipa de tecnólogos dentro da Administração de Serviços Gerais (General Services Administration) cuja função era manter serviços digitais governamentais críticos, como o Login.gov. em segurança [132]. O DOGE tem ambições de cortar a Agência de Investigação e Qualidade em Saúde (Agency for Healthcare Research and Quality – AHRQ), um centro de pesquisa destinado a encontrar eficiências em pesquisas sobre qualidade em saúde [133]. O Departamento semeou a confusão e o caos em larga escala, emitindo diretrizes pouco claras por e-mail e custando ao governo dezenas de milhões de dólares em horas de trabalho desperdiçadas [134]. Em alguns casos, o DOGE teve de recontratar trabalhadores que havia demitido anteriormente [135].

Mas, enquanto o DOGE visa cortar agências críticas com orçamentos insignificantes (por exemplo, a AHRQ representa 0,2% dos gastos do governo com saúde), ele falhou em utilizar a sua “espada de IA” contra empresas de tecnologia privadas — incluindo o conjunto de empresas de tecnologia de Elon Musk — que receberam milhares de milhões de dólares em contratos federais e continuam a recebê-los [136]. A organização também afirma estar a reduzir as fraudes, mas uma parte considerável dos seus cortes tem como alvo agências e departamentos totalmente sem relação com fraudes, como o cancelamento de contratos de aluguer do governo para o U.S. Fish and Wildlife Services no Colorado, Montana e Dakota do Norte [137].

O DOGE está repleto dessas inconsistências e hipocrisias. Mas debater os méritos dos esforços do DOGE para melhorar a eficiência do governo exige aceitar a premissa de que “eficiência” é o objetivo do DOGE. Não é. O DOGE é uma tomada de poder por meio de processos, com o solucionismo de IA a atuar como uma cortina de fumo para consolidar o poder executivo e remodelar o governo federal para se adequar à agenda ideológica da Administração Trump e dos seus apoiantes — alguns dos quais possuem as empresas de tecnologia que tanto beneficiam da adoção federal de IA como da viragem para a austeridade.

Os milhões de americanos que dependem do governo federal para aceder a serviços críticos e que salvam vidas sentirão os efeitos da audaciosa tomada de poder do DOGE de forma mais imediata. O caos que a DOGE está a causar — seja por congelar financiamentos, sinalizar indivíduos por atividade fraudulenta ou eliminar o pessoal necessário para fornecer serviços de maneira eficaz — inevitavelmente levará à negação, ao atraso ou à revogação inadequada de serviços. O corte de 12% da força de trabalho da Administração da Previdência Social (SSA) pelo DOGE já resultou em relatos de falhas no site, tempos de espera superiores a quatro horas e atrasos nos prazos de solicitação [138]. Relatos recentes de que o DOGE pretende migrar os sistemas de computador da SSA em questão de meses praticamente certamente levará a enormes interrupções para mais de sessenta e cinco milhões de pessoas que recebem benefícios da Previdência Social [139].

Dezenas de milhares de servidores públicos já perderam os seus empregos, sendo afastados de agências que vão desde Assuntos de Veteranos, Saúde e Serviços Humanos, até ao Bureau de Proteção Financeira do Consumidor. Outros foram informados de que os seus cargos poderiam facilmente ser substituídos por IA. Mas não podem ser substituídos. A IA não foi projetada para administrar o governo federal, nem é capaz de o fazer [140]. Mas quando os sistemas de IA introduzidos inevitavelmente falharem, o DOGE terá criado o vácuo perfeito para que empresas privadas entrem e resolvam a confusão ou caos entretanto criado. Escreve Eryk Salvaggio: “Ao transferir decisões governamentais para sistemas de IA que eles sabem ser inadequados, essas elites tecnológicas evitam um debate político que provavelmente perderiam. Em vez disso, eles criam uma crise nacional de TI que somente eles podem consertar” [141]. O Diretor executivo da Workday, Carl Eschenbach, já chamou ao DOGE de uma “oportunidade tremenda” para integrar o portfólio de produtos em nuvem e da IA da sua empresa (como por exemplo agentes autónomos) no governo [142]. Ameaçar substituir a administração governamental por sistemas de IA pode desmoralizar os trabalhadores federais e colocar em risco os meios de subsistência de milhões de americanos, mas é fantástico para os negócios.

Para centralizar os sistemas do governo, a DOGE recebeu acesso irrestrito aos dados sensíveis, privados e de identificação pessoal das pessoas. Isso inclui o histórico completo de crédito das pessoas, pagamentos de benefícios da previdência social e dados fiscais [143]. A equipa da DOGE também passou a ter acesso a dados privados de mercado — como informações contidas em investigações confidenciais e ações tomadas por órgãos de fiscalização — o que significa que dados altamente cobiçados por empresas privadas passaram a estar facilmente acessíveis para uma equipe de funcionários dirigidos por Musk, um cidadão privado e não eleito, cujas próprias empresas competem diretamente com as empresas alvo dessas ações e investigações.

Algumas das piores consequências do DOGE — especialmente para pessoas comuns — não serão imediatamente óbvias até que seja tarde demais. Destruir a infraestrutura pública de investigação, por exemplo, prejudicará investigadores e instituições que, de outra forma, estariam a trabalhar em avanços tecnológicos potencialmente transformadores. Desmantelar o Estado regulador, incluindo agências como o Consumer Finance Protection Bureau (Agência de Proteção Financeira do Consumidor), responsável por proteger os americanos comuns de abusos de empresas privadas, significa que menos pessoas receberão reparação financeira por irregularidades empresariais. O DOGE já contratou um ex-engenheiro da Tesla para se tornar o Diretor de Informação (Chief Information Officer) no Departamento do Trabalho, a principal agência federal responsável por aplicar a legislação federal sobre o Trabalho, colocando em risco proteções críticas e benefícios materiais, como pensões [144].

 

A minha Cidade: Resistindo à IA em tempos de austeridade

Os governos locais não estão imunes às lógicas do solucionismo da IA, implementando tecnologias não testadas e não comprovadas em cidadãos sob o pretexto de promover a “eficiência”. Isso fica especialmente evidente em Nova York, onde, durante mais de uma década, o governo da cidade gastou milhões de dólares a tentar centralizar dados dos cidadãos de maneira a consolidar o poder empresarial e policial, o que prejudica os direitos civis e diminui a participação da população [145].

O Surveillance Resistance Lab (um projeto do Centro de Pesquisa Colaborativa para a Resiliência) tem sido fundamental na resistência às iniciativas tecnológicas de poder da cidade de Nova York, ao expor os padrões preocupantes de contratação da cidade — e a forma como as infraestruturas tecnológicas externalizadas são amplamente utilizadas para vigiar os cidadãos [146]. Por exemplo, a Campanha para Preservar o IDNYC, dirigida pelo diretor do laboratório (na época no Immigrant Defense Project), juntamente com o New Economy Project e a New York Immigration Coalition, descobriu que a administração DeBlasio planeava “digitalizar” o IDNYC municipal, integrando de forma arriscada tecnologia financeira e um chip inteligente que conectaria registos sobre serviços da cidade. Este cartão também poderia ser usado no transporte público. Tudo isso exporia os nova-iorquinos a mais vigilância e precariedade económica. A campanha reagiu para proteger os moradores de Nova York contra a vigilância e soluções financeiras desiguais, incluindo os esforços para reduzir o uso de transações em dinheiro em toda a cidade. A campanha conseguiu interromper com sucesso a digitalização do IDNYC, e os nova-iorquinos continuam a ter cartões de transporte pagáveis em dinheiro.

Recentemente, o Surveillance Resistance Lab destacou a mais recente obsessão tecnológica da cidade, o MyCity, uma tentativa do prefeito Eric Adams de construir um portal tecnológico centralizado sob o pretexto de eficiência [147]. O portal MyCity apresenta-se como um recurso único para que os moradores de Nova York acedam aos serviços municipais, solicitem benefícios e encontrem informações úteis da cidade [148]. Como mostra o Surveillance Resistance Lab, as realidades do MyCity têm sido bem mais preocupantes: desde 2023, a cidade de Nova York fez parceria com a Azure AI da Microsoft para desenvolver e lançar um “MyCity Chatbot”, que forneceu informações falsas — às vezes até criminosas [149] — às pessoas. Num dado caso, o chatbot disse a um morador que era legal demitir um funcionário se fosse apresentada uma denúncia de assédio sexual [150]. (Não é.) [151]. Até ao momento da redação deste trabalho, o robô de conversação ainda alerta os utilizadores de que “pode ocasionalmente fornecer respostas incompletas ou imprecisas”. Uma ferramenta pública de comunicação que o público não pode confiar não traz benefícios em nome da eficiência — exceto para a Microsoft, a empresa que recebeu o contrato governamental.

Fundamentalmente, quando a cidade tentou compreender os dados nos quais o robô de conversação tinha sido treinado, a Microsoft alegou que os dados de treino eram “propriedade do fornecedor”, evitando qualquer responsabilidade e deixando os comités de supervisão governamental no escuro [152]. Quando confrontado por um membro do Conselho Municipal numa audiência pública sobre quem era responsável por considerar o robô de conversação eficaz, o representante do Escritório de Tecnologia e Inovação da cidade esquivou-se a responder, afirmando que o fornecedor — e não a cidade — deveria decidir sobre a eficácia da ferramenta, levantando sérias preocupações [153] sobre responsabilidade pública. Enquanto isso, o MyCity é acompanhado por um esforço legislativo a nível estadual, apropriadamente chamado de Lei “Uma Cidade”, que permite que agências contornem regulamentações de privacidade e partilhem dados entre si que, de outra forma, estariam restringidos, com a finalidade de fornecer benefícios ou serviços governamentais, levantando amplas preocupações sobre privacidade [154].

“Como é que os moradores da cidade beneficiam dessa tecnologia? Eles não beneficiam com ela, mas também não era essa a intenção. O objetivo de projetos como o MyCity pode não ser, de facto, para servir os cidadãos, mas sim para incentivar e centralizar o acesso a dados dos cidadãos; privatizar e externalizar o trabalho governamental; e consolidar o poder empresarial sem mecanismos significativos de responsabilização — mais um exemplo clássico de a IA servir como ‘dupla linguagem’ para a austeridade.” [155]

O destino do MyCity ainda não foi determinado. O Surveillance Resistance Lab trabalhou incansavelmente para expor as muitas injustiças do MyCity, incluindo o facto de que, em 2025, o programa já havia gasto mais de 100 milhões de dólares em contratos privados com fornecedores de tecnologia — a maioria localizada fora de Nova York — com poucos benefícios para mostrar aos nova-iorquinos [156]. Em 2024, eles organizaram uma coligação [157] de organizações, incluindo New Economy Project, NYCLU, NYLPI, The Legal Aid Society, TechTonic Justice, Sugar Law Center for Economic and Social Justice e AI Now, para testemunhar perante o Conselho Municipal de Nova York sobre as consequências nocivas do MyCity para os moradores da cidade. Embora a luta ainda esteja em andamento — recentemente, o diretor de tecnologia da cidade disse esperar expandir o MyCity e o seu robô de conversação de IA defeituoso [158] — essas coligações estratégicas são cruciais para construir poder e contrapor às falsas promessas do tecno-soluccionismo.

 

 


Notas

  1. “About Techtonic Justice,” Techtonic Justice (website), accessed April 25, 2025, https://www.techtonicjustice.org/aboutBack
  2. Kevin De Liban, Inescapable AI: The Ways AI Decides How Low-Income People Work, Live,Learn, and Survive, Techtonic Justice, November 2024, https://static1.squarespace.com/static/65a1d3be4690143890f61cec/t/673c7170a0d09777066c6e50/1732014450563/ttj-inescapable-ai.pdfBack
  3. Bryce Covert, “States Are Turning Their Public Benefits Systems Over to AI. The Results Have Often Led to ‘Immense Suffering’,” Fast Company, January 23, 2025, https://www.fastcompany.com/91265363/states-are-turning-their-public-benefits-systems-over-to-ai-the-results-have-often-led-to-immense-sufferingBack
  4. Michele Gilman, “AI Algorithms Intended to Root Out Welfare Fraud Often End Up Punishing the Poor Instead,” The Conversation, February 14, 2020, https://theconversation.com/ai-algorithms-intended-to-root-out-welfare-fraud-often-end-up-punishing-the-poor-instead-131625Back
  5. Amnesty International, “Dutch Childcare Benefit Scandal an Urgent Wake-Up Call to Ban Racist Algorithms,” October 25, 2021, https://www.amnesty.org/en/latest/news/2021/10/xenophobic-machines-dutch-child-benefit-scandalBack
  6. Virginia Eubanks, “A Child Abuse Prediction Model Fails Poor Families,” Wired, January 15, 2018, https://www.wired.com/story/excerpt-from-automating-inequalityBack
  7. Lauren Kitchner and Matthew Goldstein, “Access Denied: Faulty Automated Background Checks Freeze Out Renters,” Markup, May 28, 2020, https://themarkup.org/locked-out/2020/05/28/access-denied-faulty-automated-background-checks-freeze-out-renterBack
  8. Danielle Kaye, Lauren Hirsch, and David McCabe, “U.S. Accuses Software Maker Realpage of Enabling Collusion on Rents,” New York Times, August 23, 2024, https://www.nytimes.com/2024/08/23/business/economy/realpage-doj-antitrust-suit-rent.htmlBack
  9. Brian Chen, “Dispelling Myths of AI and Efficiency,” Data & Society, March 25, 2025, https://datasociety.net/library/dispelling-myths-of-ai-and-efficiency; Makena Kelly, “Elon Musk Ally Tells Staff ‘AI-First’ Is the Future of Key Government Agency,” Wired, February 3, 2025, https://www.wired.com/story/elon-musk-lieutenant-gsa-ai-agencyBack
  10. Kate Conger, Ryan Mac, and Madeleine Ngo, “Must Allies Discuss Deploying A.I. to Find Budget Savings,” New York Times, February 3, 2025, https://www.nytimes.com/2025/02/03/technology/musk-allies-ai-government.htmlBack
  11. Makena Kelly and Zoe Schiffer, “DOGE Has Deployed Its GSAi Custom Chatbot for 1,500 Federal Workers,” Wired, March 7, 2025, https://www.wired.com/story/gsai-chatbot-1500-federal-workersBack
  12. Courtney Kube et al., “DOGE Will Use AI to Assess the Responses of Federal Workers Who Were Told to Justify Their Jobs via Email,” NBC News, February 25, 2025, https://www.nbcnews.com/politics/doge/federal-workers-agencies-push-back-elon-musks-email-ultimatum-rcna193439Back
  13. Asmelash Teka Hadgu and Timnit Gebru, “Replacing Federal Workers with Chatbots Would Be a Dystopian Nightmare,” Scientific American, April 14, 2025, https://www.scientificamerican.com/article/replacing-federal-workers-with-chatbots-would-be-a-dystopian-nightmareBack
  14. Emily M. Bender, “Calling All Mad Scientists: Reject ‘AI’ as a Framing of Your Work,” Mystery AI Hype Theater 3000: The Newsletter, April 8, 2025, https://buttondown.com/maiht3k/archive/calling-all-mad-scientists-reject-ai-as-a-framingBack
  15. Social Security Administration, “Social Security Eliminates Wasteful Department,” press release, February 24, 2025, https://www.ssa.gov/news/press/releases/2025/#2025-02-24; Natalie Alms, “Social Security Shutters its Civil Rights and Transformation Offices,” Government Executive, February 26, 2025, https://www.govexec.com/management/2025/02/social-security-shutters-its-civil-rights-and-transformation-offices/4033Back
  16. Ed O’Keefe and Rhona Tarrant, “General Services Administration Shutters its Technology Unit,” CBS, March 2, 2025, https://www.cbsnews.com/news/general-services-administration-shutters-technology-unit-trump-dogeBack
  17. John Wilkerson, “HHS Agency Responsible for Health Care Quality Research Threatened with Mass Layoffs,” Stat, March 20, 2025, https://www.statnews.com/2025/03/20/hhs-ahrq-agency-responsible-for-health-care-quality-research-threatened-with-mass-layoffs; Ezra Klein, interview with Santi Ruiz, The Ezra Klein Show, podcast audio, 16:00, March 25, 2025, https://www.nytimes.com/2025/03/25/opinion/ezra-klein-podcast-santi-ruiz.htmlBack
  18. Jonathan Allen, “‘Absolute Chaos’: DOGE Sows Turmoil in Its Quest for ‘Efficiency’,” NBC News, February 25, 2025, https://www.nbcnews.com/politics/doge/absolute-chaos-doge-turmoil-efficiency-rcna193579Back
  19. Allen, “‘Absolute Chaos’.” Back
  20. Eric Lipton, “Musk is Positioned to Profit Off Billions in New Government Contracts,” New York Times, March 23, 2025, https://www.nytimes.com/2025/03/23/us/politics/spacex-contracts-musk-doge-trump.html; Chris Hayes,“Elon Musk Called Out for Raking in $8 Million a Day from Taxpayers,” MSNBC, February 12, 2025, https://www.msnbc.com/all-in/watch/elon-musk-called-out-for-raking-in-8-million-a-day-from-taxpayers-231824965528; Department of Defense, “Department of Defense Awards $14.3 Million to Expand Sources of Solid Rocket Motors,” press release, January 7, 2025, https://www.defense.gov/News/Releases/Release/Article/4022917/department-of-defense-awards-143-million-to-expand-sources-of-solid-rocket-moto; Miles Jamison, “Anduril Awarded $99M Air Force Contract for Thunderdome Project,” GovCon Wire, February 18, 2025, https://www.govconwire.com/2025/02/anduril-99-million-air-force-contract-thunderdome-project; “Anduril Takes Over Microsoft’s $22 Billion US Army Headset Program,” Reuters, February 11, 2025, https://www.reuters.com/technology/anduril-takes-over-microsofts-22-billion-us-army-headset-program-2025-02-11; MediaJustice, “WTF: The Rise of the Broligarchy PoliEd Series-Episode 2: WTF is the Tech Broligarchy Up To?” March 6, 2025, 54 min., 42 sec., https://www.youtube.com/watch?v=sKhnswwYe60&t=3017sBack
  21. Nick Mordowanec, “Map Shows DOGE Office Closures in March,” Newsweek, March 26, 2025, https://www.newsweek.com/doge-elon-musk-map-budget-cuts-march-2050761Back
  22. Zeeshan Aleem, “DOGE Is Already Breaking Social Security,” MSNBC, March 26, 2025, https://www.msnbc.com/opinion/msnbc-opinion/social-security-elon-musk-doge-cuts-issues-rcna198034Back
  23. Makena Kelly, “DOGE Plans to Rebuild SSA Code Base in Months, Risking Benefits and System Collapse,” Wired, March 28, 2025, https://www.wired.com/story/doge-rebuild-social-security-administration-cobol-benefitsBack
  24. Brian J. Chen, “Dispelling Myths of AI and Efficiency,” Data & Society, March 25, 2025, https://datasociety.net/library/dispelling-myths-of-ai-and-efficiencyBack
  25. Eryk Salvaggio, “Anatomy of an AI Coup,” Tech Policy Press, February 9, 2025, https://www.techpolicy.press/anatomy-of-an-ai-coupBack
  26. Bob Evans, “DOGE Triggering ‘Tremendous Opportunity’ for Workday Federal Business,” Cloud Wars, March 13, 2025, https://cloudwars.com/cloud/doge-triggering-tremendous-opportunity-for-workday-federal-businessBack
  27. Center for Democracy and Technology et al., DOGE and Government Data Privacy, March 17, 2025, https://civilrights.org/wp-content/uploads/2025/03/DOGE-and-Government-Data-Privacy-FINAL.pdf; Aleem, “DOGE is Already Breaking Social Security”; Chas Danner, “All the Federal Agencies DOGE Has Gotten Access to,” New York Magazine, February 10, 2025, https://nymag.com/intelligencer/article/doge-elon-musk-what-federal-agencies-access-lawsuits.htmlBack
  28. Brian Merchant, “DOGE’s ‘AI-First’ Strategist Is Now the Head of Technology at the Department of Labor,” Blood in the Machine(blog), March 19, 2025, https://www.bloodinthemachine.com/p/doges-ai-first-strategist-is-now; Natalie Alms, “TTS Director Tapped to Serve as Labor CIO,” Nextgov/FCW, March 18, 2025, https://www.nextgov.com/people/2025/03/tts-director-tapped-serve-labor-cio/403855Back
  29. Cynthia Conti-Cook and Ed Vogel, MyCity, INC: A Case Against ‘CompStat Urbanism,Surveillance Resistance Lab, March 18, 2024, https://surveillanceresistancelab.org/featured-work/mycity-inc-a-case-against-compstat-urbanism/Back
  30. Conti-Cook and Vogel, MyCity, INC; Mizue Aizeki and Rashida Richardson, eds., Smart-City Digital ID Projects: Reinforcing Inequality and Increasing Surveillance through Corporate“Solutions,”Immigrant Defense Project, December 2021, https://surveillanceresistancelab.org/featured-work/smart-city-digital-id-projects/Back
  31. Conti-Cook and Vogel, MyCity, INC.Back
  32. Samar Khurshid, “Eric Adam Vows to Overhaul How City Government Works; Experts Point to Several Essentials to Following Through,” Gotham Gazette, October 31, 2021, https://www.gothamgazette.com/city/10870-eric-adams-promises-overhaul-how-city-government-works-expertsBack
  33. City of New York, “Mayor Adams Releases First-of-Its-Kind Plan for Responsible Artificial Intelligence Use in NYC Government,” October 16, 2023, https://www.nyc.gov/office-of-the-mayor/news/777-23/mayor-adams-releases-first-of-its-kind-plan-responsible-artificial-intelligence-use-nyc; Colin Lecher, “NYC’s AI Chatbot Tells Businesses to Break the Law,” Markup, March 29, 2025, https://themarkup.org/news/2024/03/29/nycs-ai-chatbot-tells-businesses-to-break-the-lawBack
  34. Jake Offenhartz, “NYC’s AI Chatbot Was Caught Telling Businesses to Break the Law. The City Isn’t Taking it Down,” Associated Press, April 3, 2024, https://apnews.com/article/new-york-city-chatbot-misinformation-6ebc71db5b770b9969c906a7ee4fae21Back
  35. New York State Human Rights Law, Section 296, Unlawful Discriminatory Practices. Back
  36. New York City Office of Technology and Innovation, “Summary of Agency Compliance Reporting of Algorithmic Tools,” 2023, https://www.nyc.gov/assets/oti/downloads/pdf/reports/2023-algorithmic-tools-reporting-updated.pdfBack
  37. “Council Member Bottcher Questions OTI About City’s Small Business Chatbot Accuracy and Effectiveness,” citymeetings.nyc, October 28, 2024, https://citymeetings.nyc/meetings/new-york-city-council/2024-10-28-0100-pm-committee-on-technology/chapter/council-member-bottcher-questions-oti-about-citys-small-business-chatbot-accuracy-and-effectiveness/Back
  38. One City Act, Assembly Bill A9642 (2023–2024), https://www.nysenate.gov/legislation/bills/2023/A9642Back
  39. Likhita Banerji and Damini Satija, “AI as Double Speak for Austerity,” Tech Policy Press, February 7, 2025, https://www.techpolicy.press/ai-as-double-speak-for-austerityBack
  40. Zachary Groz, “How Eric Adam’s MyCity Portal Became a $100 Million Question Mark,” New York Focus, March 19, 2025, https://nysfocus.com/2025/03/19/mycity-eric-adams-child-careBack
  41. Surveillance Resistance Lab and New Economy Project, “Four Major Risks from the MyCity Portal Will Put New Yorkers and Their Data in Dancer,” October 15, 2024, https://surveillanceresistancelab.org/wp-content/uploads/Four-Major-Risks-of-MyCity.pdfBack
  42. Annie McDonough, “Matt Fraser Still Wants to Expand MyCity and AI Chatbot,” City & State New York, March 19, 2025, https://www.cityandstateny.com/personality/2025/03/matt-fraser-still-wants-expand-mycity-and-ai-chatbot/403899Back

 


As autoras:

Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.

 Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.

Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.

 

Leave a Reply